LLM推理的真相
当今人工智能领域最大的谎言是“自我修正”证明了大型语言模型(LLM)能够推理。但事实并非如此:它只是在取平均值。
当今人工智能领域最大的谎言是“自我修正”证明了大型语言模型(LLM)能够推理。但事实并非如此:它只是在取平均值。
这类模型在回答问题前会生成一长串的思维链(LongCoT);并且增加「思考 token」 的数量能够提升模型的能力。与任何强化学习问题一样,它存在一个决定轨迹如何生成的环境。
别觉得这是小打小闹,懂行的都知道,现在大语言模型推理最头疼的就是“不确定性”,明明输入一模一样的提示,输出却可能差老远。
文章概述了多种 LLM 推理框架,包括 vLLM、Hugging Face TGI、SGLang、NVIDIA Dynamo、AIBrix 和 llm-d。它们在性能、可扩展性、编排和对不同部署场景的适用性方面各有优势,满足了低延迟、高吞吐量和异构硬件部署的需
今天,由 OpenAI 前 CTO Mira Murati 成立于今年 2 月的人工智能初创公司 Thinking Machines Lab,发了第一篇文章 ——《克服 LLM 推理中的不确定性》(Defeating Nondeterminism in LLM
推理 llm llm推理 miramurati miramu 2025-09-12 15:47 9
事情是这样的:今天,Thinking Machines开辟了研究博客专栏「Connectionism」(联结主义),发表了第一篇博客文章「Defeating Nondeterminism in LLM Inference」(击败LLM推理中的非确定性)。
就在今天,由 OpenAI 前 CTO Mira Murati 成立于今年 2 月的人工智能初创公司 Thinking Machines Lab,发了第一篇文章 ——《克服 LLM 推理中的不确定性》(Defeating Nondeterminism in L
推理 llm thinkingmachines llm推理 2025-09-11 11:53 6